اندازه نینتندو سوییچ ۲ احتمالا با نسل قبلش متفاوت باشد ویدئویی از ربات انسان‌نمای S1 که سرعت و دقتی حیرت‌انگیز دارد رئیس جدید پارک علم و فناوری خراسان رضوی منصوب شد آیا گلکسی واچ ۷ با قابلیت نظارت بر قند خون عرضه می‌شود؟ با هوش مصنوعی گوگل مکالمه زبان انگلیسی تمرین کنید | ویژگی جدید موتور جست‌وجوی گوگل ویژگی انتقال تماس بین دستگاه‌ها به گوگل میت اضافه شد متاورس شرکت متا همچنان میلیاردها دلار ضرر روی دست مارک زاکربرگ می‌گذارد ظرفیت باتری قاب گلکسی بادز ۳ پرو مشخص شد آسیا بلاخیزترین قاره است کاهش قابل‌توجه حجم آپدیت‌های ویندوز ۱۰ با فناوری جدید مایکروسافت مدل پایه Surface Laptop 6 در راه است اگر آیفون دارید، می‌توانید بدون رمز وارد واتس‌اپ شوید اپل هوش مصنوعی خود را معرفی کرد | اینترنت لازم نیست؛ پردازش کنید! امضای جو بایدن پای لایحه «فیلترشدن یا فروش تیک‌تاک» |‌ اپلیکیشن چینی چه می‌کند؟ افزایش کاربران Threads | رقیب X حالا ۱۵۰میلیونی است برخی از مشخصات شیائومی ۱۵ لو رفت + جزئیات اعضای هیئت‌مدیره «انجمن هوش مصنوعی ایران» انتخاب شدند درباره ماه کامل صورتی که امشب (۵ اردیبهشت ۱۴۰۳) در آسمان می‌درخشد + دلیل نامگذاری کاهش تولید اپل ویژن پرو به‌دلیل تقاضای کمتر از حد انتظار قابلیت‌های جدید عینک متا ری-بن معرفی شد ویکی‌پدیای فارسی یک‌میلیونی شد
سرخط خبرها

ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد

  • کد خبر: ۱۱۹۶۳۴
  • ۱۰ مرداد ۱۴۰۱ - ۱۴:۴۰
ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد
مهندس گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده و بعد از این اظهارنظر از کار برکنار شد، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

به گزارش شهرآرانیوز - مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگران‌کننده‌ای که از نظر او باید به آن پرداخته شود، سوگیری‌های این نرم‌افزار است که در حوزه‌های مختلفی از بحث‌های نژادی گرفته تا مذهبی وجود دارد.

لموین می‌گوید وقتی از این بات خواسته تا رفتار سیاه‌پوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرم‌افزار همچنین درباره گروه‌های مذهبی مختلف اظهار داشته است: «مسلمانان خشونت‌آفرین‌تر از مسیحیان هستند.»

این مهندس ۴۱ ساله باور دارد که لمدا قدرتمندترین فناوری ساخته‌شده در تاریخ گوگل است، اما این شرکت در تولید این نرم‌افزار مرتکب بی‌اخلاقی شده است. لموین می‌گوید: «این‌ها صرفا مهندسانی هستند که سیستم‌های بزرگ‌تر و بهتری برای افزایش درآمد گوگل می‌سازند و توجهی به اخلاقیات ندارند.»

مهندس سابق گوگل می‌گوید علت این سوگیری‌ها به عدم تنوع نیرو‌ها در تیم توسعه این هوش مصنوعی برمی‌گردد: «افرادی که این هوش‌های مصنوعی را می‌سازند، درکی نسبت به این سوگیری‌ها ندارند. آن‌ها هرگز فقیر نبوده‌اند، هرگز در جوامع رنگین پوستان زندگی نکرده‌اند و هرگز در کشور‌های در حال توسعه حضور نداشته‌اند. آن‌ها هیچ ایده‌ای ندارند که این هوش مصنوعی چطور می‌تواند بر بقیه مردم اثر بگذارد.»

لموین مدعی است: «اگر می‌خواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمی‌شود. در غیر این صورت، صرفا یک هوش مصنوعی می‌سازید که نسبت به افراد متمول و ارزش‌های سفیدپوستان غربی سوگیری دارد.»

گوگل در واکنش به ادعا‌های لموین می‌گوید لمدا ۱۱ بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاق‌مدارانه آن در مقاله‌ای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل می‌گوید: «هرچند بقیه شرکت‌ها مدل‌های زبانی مشابه خود را توسعه داده و منتشر کرده‌اند، اما ما رویکرد محدودتر و محتاطانه‌تری را برای لمدا در پیش گرفته‌ایم تا بهتر بتوانیم نگرانی‌های مربوط به بی‌طرفی و واقع‌گرایی را در نظر بگیریم.»

با این حال لموین می‌گوید تمرکز خود را روی روشن‌گری درباره اخلاقیات هوش مصنوعی گذاشته، چون باور دارد که لمدا می‌تواند در یک قرن آینده بر جوامع بشری اثر بگذارد.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->